Departamento de Economía
2024-03-20
Hoy haremos uso del cálculo de varianzas de estimadores \(\hat\beta_i\) en este caso tanto para el parámetro marginal quien acompaña a nuestra variable de control como en efecto al autónomo o \(\hat\beta_0\) que es nuestro parámetro constante.
Ademas de eso, miraremos la parte de cálculo elasticidad (tal como se hacia en microeconomía) y la parte de formas funcionales de nuestros modelos de regresión, que ayudan en gran parte a presentar mejores modelos.
Recuerde que siempre hay que preparar nuestros datos o involucrarlos en R, esto es:
Para la siguientes formulas, vamos a requerir el tamaño de la muestra (n), podemos hacerlo de la siguiente forma:
Luego procedemos a calcular la varianza de nuestro residuo. Para esto
\[\widehat{\sigma}^{2}= \frac{1}{n-2} \times \sum\limits_{i=1}^{n}\mu_{i}^{2}\equiv \frac{n-1}{n-2}\times Var(\mu_{i})\]
Luego realizamos el calculo para los respectivos estimadores
\[SE\left ( \beta_{1} \right )=\sqrt\frac{\sigma^{2}}{\sum \limits_{i=1}^{n}\left ( x_{i} - \bar{x} \right )^{2}}=\frac{1}{\sqrt{n-1}} \cdot\frac{\sigma}{sd(x_i)}\]
Recuerde que la SD es
\[\sqrt{\frac{1}{n-1}\cdot \sum_{i=1}^n (x_i - \bar{x})^2}\]
Lo mismo para \(\hat\beta_0\), la formula cambia un poco, sin embargo podemos tener entonces:
\[SE\left ( \hat\beta_{0} \right )=\sqrt{\frac{\sigma^{2} \bar{x}^2 }{\sum \limits_{i=1}^{n}\left ( x_{i} - \bar{x} \right )^{2}}}=\color{#fc0317}{\frac{1}{\sqrt{n-1}} \cdot\frac{\sigma}{sd(x_i)}\cdot \sqrt{\bar{x}^2}}\]
Ya conociendo de donde sale el cálculo de cada uno, podemos entonces tenerlo en el resumen del modelo.
Tabla #1 | |||||
|---|---|---|---|---|---|
Estimate | Standard Error | t value | Pr(>|t|) | ||
(Intercept) | 955.605 | 37.411 | 25.543 | 0.0000 | *** |
Experiencia | 0.202 | 3.026 | 0.067 | 0.9467 |
|
Signif. codes: 0 <= '***' < 0.001 < '**' < 0.01 < '*' < 0.05 | |||||
Residual standard error: 404.6 on 933 degrees of freedom | |||||
Multiple R-squared: 4.795e-06, Adjusted R-squared: -0.001067 | |||||
F-statistic: 0.004474 on 933 and 1 DF, p-value: 0.9467 | |||||
Trabajamos con las siguientes ecuaciones:
\[\textrm{Suma total de cuadrados} \equiv SST= \sum_{i=1}^{n} \left ( y_{i}- \bar{y} \right )^{2}\]
\[\textrm{Suma explicada de los cuadrados} \equiv SSE= \sum_{i=1}^{n} \left( \hat{y}_{i}- \bar{y} \right)^{2}\]
\[\textrm{Suma de los residuos al cuadrado} \equiv SEC= \sum_{i=1}^{n} \hat{\mu}_{i}^{2}\]
Estimamos nuestra predicción y error individual
Ya lo habíamos hecho en clases
Recuerde los criterios
\[R^{2}=\left\{\begin{matrix} >95\%&= \text{Excelente ajuste} \\ \text{Entre}\; 50\%-94\% & = \text{Muy buen ajuste}\\ \text{Entre}\; 25\%-49\% & = \text{Buen ajuste}\\ \text{Entre}\; 5\%-24\% & = \text{Ajuste regular}\\ <5\% & = \text{Ajuste muy bajo}\end{matrix}\right.\]
Si el \(R^2\) llega a ser 99%, debe empezar a preocuparse.
Debe conocer que las formas de medida inciden en la interpretación
\[\begin{aligned} \widehat{y} &= \beta_{0}+\beta_{1}x +\mu \quad \text{Lineal en niveles} \\ ln(\widehat{y}) &= \beta_{0}+\beta_{1}x +\mu \quad \text{Log-Lin} \\ \widehat{y} &= \beta_{0}+\beta_{1}lnx +\mu \quad \text{Lin-Log} \\ ln(\widehat{y}) &= \beta_{0}+\beta_{1}lnx +\mu \quad \text{Log-Log} \end{aligned}\]
Este es cambiando las opciones del lm en la parte del modelo, un ejemplo de eso es:
| Modelo Lineal | Modelo Log-Lin | Modelo Lin-log | Modelo Log-Log | |
|---|---|---|---|---|
| (Intercept) | 955.605 *** | 6.756 *** | 938.558 *** | 6.731 *** |
| (37.411) | (0.039) | (66.371) | (0.069) | |
| Experiencia | 0.202 | |||
| (3.026) | ||||
| exper | 0.002 | |||
| (0.003) | ||||
| log(exper) | 8.231 | 0.020 | ||
| (27.611) | (0.029) | |||
| N | 935 | 935 | 935 | 935 |
| R2 | 0.000 | 0.000 | 0.000 | 0.001 |
| Nota: Los resultados deben interpretarse completamente | ||||
Una medida muy conocida, ahora implica un calculo en econometría.
[1] 0.2024031
wage exper elasticidad melasticidad melasticidad2
1 769 11 0.002324453 0.002443266 0.002443266
2 808 11 0.002324453 0.002443266 0.002443266
3 825 11 0.002324453 0.002443266 0.002443266
4 650 13 0.002745920 0.002443266 0.002443266
5 562 14 0.002956520 0.002443266 0.002443266
6 1400 14 0.002956520 0.002443266 0.002443266
7 600 13 0.002745920 0.002443266 0.002443266
8 1081 8 0.001691584 0.002443266 0.002443266
9 1154 13 0.002745920 0.002443266 0.002443266
10 1000 16 0.003377454 0.002443266 0.002443266
reg1 <- lm(wage ~ exper, data=datos)
reg2 <- lm(wage ~ 0 + exper, data=datos)
reg3 <- lm(wage ~ 1 , data=datos)
# Todo el grupo de regresiones
regfh <- list("Modelo Lineal" = reg1, "Modelo sin constante" = reg2,
"Modelo sin explicativa" = reg3)
huxreg(regfh, statistics = c(N = "nobs", R2 = "r.squared"),
note = "Nota: Son transformaciones simples")| Modelo Lineal | Modelo sin constante | Modelo sin explicativa | |
|---|---|---|---|
| (Intercept) | 955.605 *** | 957.945 *** | |
| (37.411) | (13.224) | ||
| exper | 0.202 | 72.505 *** | |
| (3.026) | (1.394) | ||
| N | 935 | 935 | 935 |
| R2 | 0.000 | 0.743 | 0.000 |
| Nota: Son transformaciones simples | |||
Universidad del Norte